10 resultados para Atendimento telefônico automático

em Repositório Institucional da Universidade de Aveiro - Portugal


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho é estudar a circulação da água na Ria de Aveiro, contribuindo para o conhecimento da qualidade da sua água. É apresentada a caracterização morfológica e hidrológica da Ria, pondo em evidência a complexidade da sua morfologia e o carácter lagunar desta massa de água, que é justificado pelo reduzido caudal de água proveniente dos rios. O balanço do volume de água no ciclo semi-diurno de maré permitiu calcular caudais e percursos de maré. É analisada a variação de volume de ciclo quinzenal e discutida a importância das correntes residuais no transporte de substâncias na Ria. É apresentado um método de amostragem para determinar salinidades médias em segmentos dos canais da Ria, que admite condições quase estacionárias. Foram calculados os tempos de residência da água doce nos segmentos dos canais, tendo-se obtido tempos baixos próximo da barra, que aumentam para o interior dos canais. Foram realizadas observações de correntes de maré, de salinidade e de concentração de partículas em suspensão, em duas secções do canal que vai até ao Largo do Laranjo. Os resultados obtidos são compatíveis com a existência de circulação residual no ramo da Murtosa, predominando a corrente de enchente no sul e nascente, e a de vazante no norte e poente. O predomínio do gradiente longitudinal de salinidade indica também que o transporte dispersivo é importante. A concentração de partículas em suspensão está relacionada com a velocidade da corrente, indicando que a deposição e a ressuspensão alternam. O aumento da concentração média de partículas quando a salinidade diminui revela a influência do sedimento transportado pelos rios. O balanço de substâncias resultante do transporte entre os segmentos dos canais foi representado por um modelo de segmentos de prisma de maré. Os valores dos coeficientes de retorno entre os segmentos foram calibrados por um procedimento automático, baseado nas salinidades médias observadas. O modelo simula com exito a evolução do campo médio de salinidade durante períodos longos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The contemporary world is crowded of large, interdisciplinary, complex systems made of other systems, personnel, hardware, software, information, processes, and facilities. The Systems Engineering (SE) field proposes an integrated holistic approach to tackle these socio-technical systems that is crucial to take proper account of their multifaceted nature and numerous interrelationships, providing the means to enable their successful realization. Model-Based Systems Engineering (MBSE) is an emerging paradigm in the SE field and can be described as the formalized application of modelling principles, methods, languages, and tools to the entire lifecycle of those systems, enhancing communications and knowledge capture, shared understanding, improved design precision and integrity, better development traceability, and reduced development risks. This thesis is devoted to the application of the novel MBSE paradigm to the Urban Traffic & Environment domain. The proposed system, the GUILTE (Guiding Urban Intelligent Traffic & Environment), deals with a present-day real challenging problem “at the agenda” of world leaders, national governors, local authorities, research agencies, academia, and general public. The main purposes of the system are to provide an integrated development framework for the municipalities, and to support the (short-time and real-time) operations of the urban traffic through Intelligent Transportation Systems, highlighting two fundamental aspects: the evaluation of the related environmental impacts (in particular, the air pollution and the noise), and the dissemination of information to the citizens, endorsing their involvement and participation. These objectives are related with the high-level complex challenge of developing sustainable urban transportation networks. The development process of the GUILTE system is supported by a new methodology, the LITHE (Agile Systems Modelling Engineering), which aims to lightening the complexity and burdensome of the existing methodologies by emphasizing agile principles such as continuous communication, feedback, stakeholders involvement, short iterations and rapid response. These principles are accomplished through a universal and intuitive SE process, the SIMILAR process model (which was redefined at the light of the modern international standards), a lean MBSE method, and a coherent System Model developed through the benchmark graphical modeling languages SysML and OPDs/OPL. The main contributions of the work are, in their essence, models and can be settled as: a revised process model for the SE field, an agile methodology for MBSE development environments, a graphical tool to support the proposed methodology, and a System Model for the GUILTE system. The comprehensive literature reviews provided for the main scientific field of this research (SE/MBSE) and for the application domain (Traffic & Environment) can also be seen as a relevant contribution.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The electronic storage of medical patient data is becoming a daily experience in most of the practices and hospitals worldwide. However, much of the data available is in free-form text, a convenient way of expressing concepts and events, but especially challenging if one wants to perform automatic searches, summarization or statistical analysis. Information Extraction can relieve some of these problems by offering a semantically informed interpretation and abstraction of the texts. MedInX, the Medical Information eXtraction system presented in this document, is the first information extraction system developed to process textual clinical discharge records written in Portuguese. The main goal of the system is to improve access to the information locked up in unstructured text, and, consequently, the efficiency of the health care process, by allowing faster and reliable access to quality information on health, for both patient and health professionals. MedInX components are based on Natural Language Processing principles, and provide several mechanisms to read, process and utilize external resources, such as terminologies and ontologies, in the process of automatic mapping of free text reports onto a structured representation. However, the flexible and scalable architecture of the system, also allowed its application to the task of Named Entity Recognition on a shared evaluation contest focused on Portuguese general domain free-form texts. The evaluation of the system on a set of authentic hospital discharge letters indicates that the system performs with 95% F-measure, on the task of entity recognition, and 95% precision on the task of relation extraction. Example applications, demonstrating the use of MedInX capabilities in real applications in the hospital setting, are also presented in this document. These applications were designed to answer common clinical problems related with the automatic coding of diagnoses and other health-related conditions described in the documents, according to the international classification systems ICD-9-CM and ICF. The automatic review of the content and completeness of the documents is an example of another developed application, denominated MedInX Clinical Audit system.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Coronary CT angiography is widely used in clinical practice for the assessment of coronary artery disease. Several studies have shown that the same exam can also be used to assess left ventricle (LV) function. LV function is usually evaluated using just the data from end-systolic and end-diastolic phases even though coronary CT angiography (CTA) provides data concerning multiple cardiac phases, along the cardiac cycle. This unused wealth of data, mostly due to its complexity and the lack of proper tools, has still to be explored in order to assess if further insight is possible regarding regional LV functional analysis. Furthermore, different parameters can be computed to characterize LV function and while some are well known by clinicians others still need to be evaluated concerning their value in clinical scenarios. The work presented in this thesis covers two steps towards extended use of CTA data: LV segmentation and functional analysis. A new semi-automatic segmentation method is presented to obtain LV data for all cardiac phases available in a CTA exam and a 3D editing tool was designed to allow users to fine tune the segmentations. Regarding segmentation evaluation, a methodology is proposed in order to help choose the similarity metrics to be used to compare segmentations. This methodology allows the detection of redundant measures that can be discarded. The evaluation was performed with the help of three experienced radiographers yielding low intraand inter-observer variability. In order to allow exploring the segmented data, several parameters characterizing global and regional LV function are computed for the available cardiac phases. The data thus obtained is shown using a set of visualizations allowing synchronized visual exploration. The main purpose is to provide means for clinicians to explore the data and gather insight over their meaning, as well as their correlation with each other and with diagnosis outcomes. Finally, an interactive method is proposed to help clinicians assess myocardial perfusion by providing automatic assignment of lesions, detected by clinicians, to a myocardial segment. This new approach has obtained positive feedback from clinicians and is not only an improvement over their current assessment method but also an important first step towards systematic validation of automatic myocardial perfusion assessment measures.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O cancro da mama feminino pela sua magnitude merece uma especial atenção ao nível das políticas de saúde. Emerge, pois uma visão abrangente que, por um lado, deve atentar para o encargo que esta representa para qualquer sistema de saúde, pelos custos que acarreta, como também, para a qualidade de vida das mulheres portadoras da mesma. Desta forma, a Liga Portuguesa Contra o Cancro (LPCC) tem desenvolvido, em colaboração com as Administrações Regionais de Saúde (ARS), o Programa de Rastreio do Cancro da Mama (PRCM), o qual apresenta, no Concelho de Aveiro, taxas de adesão na ordem dos 50%, ainda distantes dos 70%, objetivo recomendado pelas guidelines da Comissão Europeia. A não adesão tem sido considerada como um dos principais problemas do sistema de saúde, tanto pelas repercussões ao nível de ganhos em saúde, como também na qualidade de vida e na satisfação dos pacientes com os cuidados de saúde, constituindo-se como um fenómeno multifatorial e multidimensional. É neste sentido que o presente trabalho se propõe identificar os fatores, de cariz individual e do meio envolvente, determinantes da adesão ao PRCM, numa amostra de mulheres residentes no Concelho de Aveiro, com idades compreendidas entre os 45 e os 69 anos e, a partir dos resultados emergentes, propor estratégias de educação em saúde. Como procedimentos metodológicos e, numa primeira fase, entre outubro 2009 e maio 2010 foi aplicado um survey, o qual foi complementado com notas de campo dos entrevistadores a uma amostra não aleatória de 805 mulheres, em dois contextos distintos: no centro de saúde às aderentes à mamografia e, no domicílio, às não aderentes. Numa segunda fase, realizamos duas sessões de Focus Group (FG), num total de 12 elementos, um grupo heterogéneo com enfermeiros, médicos e utentes, e um outro grupo homogéneo, apenas com profissionais de saúde. O tratamento dos dados do survey foi efetuado através de procedimentos estatísticos, com utilização do SPSS® versão 17 e realizadas análises bivariadas (qui-quadrado) e multivariadas (discriminação de função e árvore de decisão através do algoritmo Chi-squared Automatic Interaction Detector) com o intuito de determinar as diferenças entre os grupos e predizer as variáveis exógenas. No que diz respeito a indicadores sociodemográficos, os resultados mostram que aderem mais, as mulheres com idades <50 anos e ≥ 56 anos, as que vivem em localidades urbanas, as trabalhadoras não qualificadas e as reformadas. As que aderem menos ao PRCM têm idades compreendidas entre os 50-55 anos, vivem nas zonas periurbanas, são licenciadas, apresentam categoria profissional superior ou estão desempregadas. Em relação às restantes variáveis exógenas, aderem ao PRCM, as mulheres que apresentam um Bom Perfil de Conhecimentos (46.6%), enquanto as não aderentes apresentam um Fraco Perfil de Conhecimentos (50.6%), sendo esta relação estatisticamente significativa (X2= 10.260; p=0.006).Cerca de 59% das mulheres aderentes realiza o seu rastreio de forma concordante com as orientações programáticas presentes no PRCM, comparativamente com 41.1% das mulheres que não o faz, verificando-se uma relação de dependência bastante significativa entre as variáveis Perfil de Comportamentos e adesão(X2= 348.193; p=0.000). Apesar de não existir dependência estatisticamente significativa entre as Motivações e a adesão ao PRCM (X2= 0.199; p=0.656), se analisarmos particularmente, os motivos de adesão, algumas inquiridas demonstram preocupação, tanto na deteção precoce da doença, como na hereditariedade. Por outro lado, os motivos de não adesão, também denotam aspetos de nível pessoal como o desleixo com a saúde, o desconhecimento e o esquecimento da marcação. As mulheres que revelam Boa Acessibilidade aos Cuidados de Saúde Primários e um Bom Atendimento dos Prestadores de Cuidados aderem mais ao PRCM, comparativamente com as inquiridas que relatam Fraca Acessibilidade e Atendimento, não aderindo. A partir dos resultados da análise multivariada podemos inferir que as variáveis exógenas estudadas possuem um poder discriminante significativo, sendo que, o Perfil de Comportamentos é a variável que apresenta maior grau de diferenciação entre os grupos das aderentes e não aderentes. Como variáveis explicativas resultantes da árvore de decisão CHAID, permaneceram, o Perfil de Comportamentos (concordantes e não concordantes com as guidelines), os grupos etários (<50 anos, 50-55anos e ≥56anos) e o Atendimento dos prestadores de cuidados de saúde. As mulheres mais novas (<50 anos) com Perfil de comportamentos «concordantes» com as guidelines são as que aderem mais, comparativamente com os outros grupos etários. Por outro lado, as não aderentes necessitam de um «bom» atendimento dos prestadores de cuidados para se tornarem aderentes ao PRCM. Tanto as notas de campo, como a discussão dos FG foram sujeitas a análise de conteúdo segundo as categorias em estudo obtidas na primeira fase e os relatos mostram a importância de fatores de ordem individual e do meio envolvente. No que se refere a aspetos psicossociais, destaca-se a importância das crenças e como fatores ambientais menos facilitadores para a adesão apontam a falta de transportes, a falta de tempo das pessoas e a oferta de recursos, principalmente se existirem radiologistas privados como alternativa ao PRCM. Tal como na primeira fase do estudo, uma das motivações para a adesão é a recomendação dos profissionais de saúde para o PRCM, bem como a marcação de consultas pela enfermeira, que pode ser uma oportunidade de contacto para a sensibilização. Os hábitos de vigilância de saúde, a perceção positiva acerca dos programas de saúde no geral, o acesso à informação pertinente sobre o PRCM e a operacionalização deste no terreno parecem ser fatores determinantes segundo a opinião dos elementos dos FG. O tipo e a regularidade no atendimento por parte dos profissionais de saúde, a relação entre profissional de saúde/paciente, a personalização das intervenções educativas, a divulgação que estes fazem do PRCM junto das suas pacientes, bem como, a organização do modelos de cuidados de saúde das unidades de saúde e a forma como os profissionais se envolvem e tomam a responsabilização por um programa desta natureza são fatores condicionantes da adesão. Se atendermos aos resultados deste estudo, verificamos um envolvimento de fatores que integram múltiplos níveis de intervenção, sendo um desafio para as equipas de saúde que pretendam intervir no âmbito do programa de rastreio do cancro da mama. Com efeito, os resultados também apontam para a combinação de múltiplas estratégias que são transversais a vários programas de promoção da saúde, assumindo, desta forma, uma perspetiva multidimensional e dinâmica que visa, essencialmente, a construção social da saúde e do bem-estar (i.e. responsabilização do cidadão pela sua própria saúde e o seu empowerment).

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo deste trabalho foi efetuar um estudo de otimização dos parâmetros de exposição do mamógrafo digital da marca GE, modelo Senographe DS instalado no Instituto Português de Oncologia de Coimbra (IPOC) baseado numa análise contraste detalhe e avaliar o impacto do resultado obtido na melhoria da capacidade de detecção clínica das estruturas da mama. O mamógrafo em estudo dispõe de um sistema de controle automático da exposição designado por sistema AOP (Automatic Optimization of Parameters) que foi otimizado pelo fabricante a partir da razão contraste ruído. O sistema AOP é usado na prática clínica na quase totalidade dos exames de mamografia realizados no IPOC. Tendo em conta o tipo de estrutura que se pretende visualizar na mamografia, nomeadamente estruturas de baixo contraste como as massas e estruturas de dimensão submilimétrica como as microcalcificações, a análise contraste detalhe poderia constituir uma abordagem mais adequada para o estudo de otimização dos parâmetros de exposição uma vez que permitiria uma avaliação conjunta do contraste, da resolução espacial e do ruído da imagem. Numa primeira fase do trabalho foi efetuada a caracterização da prática clínica realizada no mamógrafo em estudo em termos de espessura de mama comprimida “típica”, dos parâmetros técnicos de exposição e das opções de processamento das imagens aplicadas pelo sistema AOP (combinação alvo/filtro, tensão aplicada na ampola - kVp e produto corrente-tempo da ampola - mAs). Numa segunda fase foi realizado um estudo de otimização da qualidade da imagem versus dose na perspectiva dos parâmetros físicos. Para tal foi efetuada uma análise contrastedetalhe no objeto simulador de mama CDMAM e usada uma figura de mérito definida a partir do IQFinv (inverted image quality figure) e da dose glandular média. Os resultados apontaram para uma diferença entre o ponto ótimo resultante do estudo de otimização e o ponto associado aos parâmetros de exposição escolhidos pelo sistema AOP, designadamente no caso da mama pequena. Sendo a qualidade da imagem na perspectiva clínica um conceito mais complexo cujo resultado da apreciação de uma imagem de boa qualidade deve ter em conta as diferenças entre observadores, foi efetuado na última parte deste trabalho um estudo do impacto clínico da proposta de otimização da qualidade de imagem. A partir das imagens realizadas com o objeto simulador antropomórfico TOR MAM simulando uma mama pequena, seis médicos(as) radiologistas com mais de 5 anos de experiência em mamografia avaliaram as imagens “otimizadas” obtidas utilizando-se os parâmetros técnicos de exposição resultantes do estudo de otimização e a imagem resultante da escolha do sistema AOP. A análise estatística das avaliações feitas pelos médicos indica que a imagem “otimizada” da mama pequena apresenta uma melhor visualização das microcalcificações sem perda da qualidade da imagem na deteção de fibras e de massas em comparação com a imagem “standard”. Este trabalho permitiu introduzir uma nova definição da figura de mérito para o estudo de otimização da qualidade da imagem versus dose em mamografia. Permitiu também estabelecer uma metodologia consistente que pode facilmente ser aplicada a qualquer outro mamógrafo, contribuindo para a área da otimização em mamografia digital que é uma das áreas mais relevantes no que toca à proteção radiológica do paciente.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The rapid evolution and proliferation of a world-wide computerized network, the Internet, resulted in an overwhelming and constantly growing amount of publicly available data and information, a fact that was also verified in biomedicine. However, the lack of structure of textual data inhibits its direct processing by computational solutions. Information extraction is the task of text mining that intends to automatically collect information from unstructured text data sources. The goal of the work described in this thesis was to build innovative solutions for biomedical information extraction from scientific literature, through the development of simple software artifacts for developers and biocurators, delivering more accurate, usable and faster results. We started by tackling named entity recognition - a crucial initial task - with the development of Gimli, a machine-learning-based solution that follows an incremental approach to optimize extracted linguistic characteristics for each concept type. Afterwards, Totum was built to harmonize concept names provided by heterogeneous systems, delivering a robust solution with improved performance results. Such approach takes advantage of heterogenous corpora to deliver cross-corpus harmonization that is not constrained to specific characteristics. Since previous solutions do not provide links to knowledge bases, Neji was built to streamline the development of complex and custom solutions for biomedical concept name recognition and normalization. This was achieved through a modular and flexible framework focused on speed and performance, integrating a large amount of processing modules optimized for the biomedical domain. To offer on-demand heterogenous biomedical concept identification, we developed BeCAS, a web application, service and widget. We also tackled relation mining by developing TrigNER, a machine-learning-based solution for biomedical event trigger recognition, which applies an automatic algorithm to obtain the best linguistic features and model parameters for each event type. Finally, in order to assist biocurators, Egas was developed to support rapid, interactive and real-time collaborative curation of biomedical documents, through manual and automatic in-line annotation of concepts and relations. Overall, the research work presented in this thesis contributed to a more accurate update of current biomedical knowledge bases, towards improved hypothesis generation and knowledge discovery.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The performance of real-time networks is under continuous improvement as a result of several trends in the digital world. However, these tendencies not only cause improvements, but also exacerbates a series of unideal aspects of real-time networks such as communication latency, jitter of the latency and packet drop rate. This Thesis focuses on the communication errors that appear on such realtime networks, from the point-of-view of automatic control. Specifically, it investigates the effects of packet drops in automatic control over fieldbuses, as well as the architectures and optimal techniques for their compensation. Firstly, a new approach to address the problems that rise in virtue of such packet drops, is proposed. This novel approach is based on the simultaneous transmission of several values in a single message. Such messages can be from sensor to controller, in which case they are comprised of several past sensor readings, or from controller to actuator in which case they are comprised of estimates of several future control values. A series of tests reveal the advantages of this approach. The above-explained approach is then expanded as to accommodate the techniques of contemporary optimal control. However, unlike the aforementioned approach, that deliberately does not send certain messages in order to make a more efficient use of network resources; in the second case, the techniques are used to reduce the effects of packet losses. After these two approaches that are based on data aggregation, it is also studied the optimal control in packet dropping fieldbuses, using generalized actuator output functions. This study ends with the development of a new optimal controller, as well as the function, among the generalized functions that dictate the actuator’s behaviour in the absence of a new control message, that leads to the optimal performance. The Thesis also presents a different line of research, related with the output oscillations that take place as a consequence of the use of classic co-design techniques of networked control. The proposed algorithm has the goal of allowing the execution of such classical co-design algorithms without causing an output oscillation that increases the value of the cost function. Such increases may, under certain circumstances, negate the advantages of the application of the classical co-design techniques. A yet another line of research, investigated algorithms, more efficient than contemporary ones, to generate task execution sequences that guarantee that at least a given number of activated jobs will be executed out of every set composed by a predetermined number of contiguous activations. This algorithm may, in the future, be applied to the generation of message transmission patterns in the above-mentioned techniques for the efficient use of network resources. The proposed task generation algorithm is better than its predecessors in the sense that it is capable of scheduling systems that cannot be scheduled by its predecessor algorithms. The Thesis also presents a mechanism that allows to perform multi-path routing in wireless sensor networks, while ensuring that no value will be counted in duplicate. Thereby, this technique improves the performance of wireless sensor networks, rendering them more suitable for control applications. As mentioned before, this Thesis is centered around techniques for the improvement of performance of distributed control systems in which several elements are connected through a fieldbus that may be subject to packet drops. The first three approaches are directly related to this topic, with the first two approaching the problem from an architectural standpoint, whereas the third one does so from more theoretical grounds. The fourth approach ensures that the approaches to this and similar problems that can be found in the literature that try to achieve goals similar to objectives of this Thesis, can do so without causing other problems that may invalidate the solutions in question. Then, the thesis presents an approach to the problem dealt with in it, which is centered in the efficient generation of the transmission patterns that are used in the aforementioned approaches.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nos últimos anos temos vindo a assistir a uma mudança na forma como a informação é disponibilizada online. O surgimento da web para todos possibilitou a fácil edição, disponibilização e partilha da informação gerando um considerável aumento da mesma. Rapidamente surgiram sistemas que permitem a coleção e partilha dessa informação, que para além de possibilitarem a coleção dos recursos também permitem que os utilizadores a descrevam utilizando tags ou comentários. A organização automática dessa informação é um dos maiores desafios no contexto da web atual. Apesar de existirem vários algoritmos de clustering, o compromisso entre a eficácia (formação de grupos que fazem sentido) e a eficiência (execução em tempo aceitável) é difícil de encontrar. Neste sentido, esta investigação tem por problemática aferir se um sistema de agrupamento automático de documentos, melhora a sua eficácia quando se integra um sistema de classificação social. Analisámos e discutimos dois métodos baseados no algoritmo k-means para o clustering de documentos e que possibilitam a integração do tagging social nesse processo. O primeiro permite a integração das tags diretamente no Vector Space Model e o segundo propõe a integração das tags para a seleção das sementes iniciais. O primeiro método permite que as tags sejam pesadas em função da sua ocorrência no documento através do parâmetro Social Slider. Este método foi criado tendo por base um modelo de predição que sugere que, quando se utiliza a similaridade dos cossenos, documentos que partilham tags ficam mais próximos enquanto que, no caso de não partilharem, ficam mais distantes. O segundo método deu origem a um algoritmo que denominamos k-C. Este para além de permitir a seleção inicial das sementes através de uma rede de tags também altera a forma como os novos centróides em cada iteração são calculados. A alteração ao cálculo dos centróides teve em consideração uma reflexão sobre a utilização da distância euclidiana e similaridade dos cossenos no algoritmo de clustering k-means. No contexto da avaliação dos algoritmos foram propostos dois algoritmos, o algoritmo da “Ground truth automática” e o algoritmo MCI. O primeiro permite a deteção da estrutura dos dados, caso seja desconhecida, e o segundo é uma medida de avaliação interna baseada na similaridade dos cossenos entre o documento mais próximo de cada documento. A análise de resultados preliminares sugere que a utilização do primeiro método de integração das tags no VSM tem mais impacto no algoritmo k-means do que no algoritmo k-C. Além disso, os resultados obtidos evidenciam que não existe correlação entre a escolha do parâmetro SS e a qualidade dos clusters. Neste sentido, os restantes testes foram conduzidos utilizando apenas o algoritmo k-C (sem integração de tags no VSM), sendo que os resultados obtidos indicam que a utilização deste algoritmo tende a gerar clusters mais eficazes.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Desde meados do século XX os avanços na indústria automóvel trazem a associação da eletrónica sendo esta cada vez mais necessária. Com este trabalho pretende-se construir um computador de bordo de um veículo elétrico dando continuação a uma dissertação anterior, que consistiu em um Controlador de Motor de carro elétrico com capacidade de travagem regenerativa. Este Computador deve ser de baixo custo e é destinado à instrumentação, apresentação de balanços energéticos e funções básicas de diagnóstico do estado do veículo. Foi igualmente um objetivo desenvolver uma Interface a partir de um LCD para este Computador de Bordo. No modelo de Controlador de Motor disponível foram aplicadas alterações e adições na instrumentação de forma a conseguir um diagnóstico do veículo mais preciso e extenso. Para o computador ter conhecimento do consumo e outros parâmetros relacionados com o motor e respetivo Controlador, foi necessário estabelecer uma comunicação entre ambas unidades. Antes de se implementar um protocolo de comunicação realizou-se uma pesquisa por protocolos usados na indústria automóvel, com o intuito de saber qual o mais apropriado para o presente trabalho. A tarefa seguinte consistiu em uma pesquisa por hardware com o qual desenvolver o Computador e sua Interface. Os balanços energéticos implicaram o desenvolvimento de métodos de cálculo, efetuados com os parâmetros transmitidos pelo Controlador de Motor. No final da dissertação demonstra-se todas as funcionalidades do Computador de Bordo desenvolvido e como este é utilizado.